深度加强学习(RL)的最新进展导致许多2人零和游戏中的相当大的进展,如去,扑克和星际争霸。这种游戏的纯粹对抗性质允许概念上简单地应用R1方法。然而,现实世界的设置是许多代理商,代理交互是复杂的共同利益和竞争方面的混合物。我们认为外交,一个旨在突出由多种代理交互导致的困境的7人棋盘游戏。它还具有大型组合动作空间和同时移动,这对RL算法具有具有挑战性。我们提出了一个简单但有效的近似最佳响应操作员,旨在处理大型组合动作空间并同时移动。我们还介绍了一系列近似虚构游戏的政策迭代方法。通过这些方法,我们成功地将RL申请到外交:我们认为我们的代理商令人信服地令人信服地表明,游戏理论均衡分析表明新过程产生了一致的改进。
translated by 谷歌翻译
该体验表明,配合和通信计算系统包括隔离的单处理器,具有严重的性能限制。在他经典的“初稿”von neumann警告说,使用“太快的处理器”验证他简单的“程序”(但不是他的计算模式!);此外,使用用于模仿神经元操作的经典计算范例,是不健全的。 Amdahl添加了包含许多处理器的大型机器具有固有的劣势。鉴于Ann的组件彼此严重沟通,它们是由大量设计/制造的用于传统计算的组件构建,此外,他们试图使用不正当的技术解决方案模仿生物运行,其可实现的有效载荷计算性能在概念上适度。基于AI的系统生成的工作量的类型导致了极低的有效载荷计算性能,以及其设计/技术将其尺寸限制在“玩具”级系统之上:基于处理器的ANN系统的缩放是强烈的非线性的。鉴于ANN系统的扩散和不断增长的规模,我们建议提前估计设备或应用的效率的想法。通过分析发布的测量,我们提供了证据表明数据转移时间的作用大大影响了ANNS性能和可行性。讨论了一些主要的理论限制因素,ANN的层结构及其技术实施方法的沟通方式影响了它们的效率。纸张从von Neumann的原始模型开始,而不忽视分开的转移时间与加工时间分开;衍生适当的解释和处理Amdahl的法律。它表明,在这种解释中,Amdahl的法律正确地描述了Anns。
translated by 谷歌翻译